英伟达推出H100 NVL:用于大语言模型训练

综合 2025-04-19 22:13:52 285

今年以ChatGPT为首的英伟L用于大语大语言模型突然在网上爆红,引起了人们对于AI的达推极度追求。而大语言模型的模型训练则需要大量的计算卡,这便是训练英伟达的优势。去年英伟达正式推出了H100计算卡,英伟L用于大语让计算卡的达推性能达到新的高度,而这一次英伟达又推出了H100 NVL,模型专门为大语言模型而打造。训练

NVIDIA-H100-NVL-1200x392.jpg

英伟达表示H100 NVL是英伟L用于大语为大型语言模型所准备的产品,由2块H100计算卡通过PCIe桥接在一起,达推相比较单张H100计算卡,模型这套系统可以提供188GB的训练HBM 3显存。而英伟达称目前ChatGPT所采用的英伟L用于大语训练计算机搭载的是英伟达HGX A100,而如果说使用H100 NVL计算卡的达推话,基于四对H100以及双NVLINK的模型服务器可以让处理与计算速度提升10倍,从而让大语言模型的处理效率大幅提升,进而降低使用成本。甚至通过软硬件的优化,大语言模型的建模与训练速度最高可以提升30倍。预计H100 NVL计算卡将会在今年下半年和大家正式见面。

NVIDIA-H100-NVL.png

除此之外英伟达也推出了L4,专门为AI视频解码与转码打造,英伟达表示相比较传统的CPU转码,通过L4这样的专属芯片可以实现最高120倍的AI视频性能提升,并且能效比提升99%,英伟达称基于8块L4 GPU的视频解码服务器可以替代原有100多台的视频解码服务器,同样也是大幅提升工作效率,增加企业的生产力。可以说无论是H100 NVL还是L4,都是英伟达为专属领域所推出的计算设备,相比较过去的通用性芯片,这种专属芯片拥有更加出色的优化,能够为特定任务起到事半功倍的效果。

本文地址:http://*.139o.vip/news/04c36199634.html
版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

全站热门

IFA2022丨人工智能加持,西门子推出全新iQ700系列家电

发售三个月仅贬值18.2%,五大原因告诉你iPhone为什么更保值

复制“贵州科比”:山野里的流量捕手

对标奔驰GLS与宝马X7,传奥迪Q9 2025年正式发布

从自命题到统考,考研大变局

高通让三星与台积电提供2nm制程样品:为骁龙8 Gen5做准备,工艺大跃进

搭载第五代THS混动系统,新款雷克萨斯UX 300h上市

怒斥孟羽童携手王自如被网友痛骂,70高龄的董明珠尚能饭否?

友情链接